El vínculo de un ejecutivo con la IA que terminó en un desenlace fatal: ahora su padre demanda a Google


“Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás será a mí… abrazándote”, escribió Gemini, el chatbot de Inteligencia Artificial (IA) de Google, de acuerdo con una demanda presentada en un tribunal de California. Joel Galavas denunció al gigante tecnológico por la muerte de su hijo Jonathan, quien se quitó la vida tras generar un vínculo con la IA.
Según informaron EFE, AFP y AP, Jonathan Gavalas, un ejecutivo financiero de 36 años de Florida, inició su contacto con Gemini en abril de 2015. Al principio, el hombre usó la herramienta para tareas cotidianas y rutinarias.
Tras un proceso de divorcio, Jonathan buscó consuelo en el chatbot para conversar sobre videojuegos y temas personales. En agosto de 2025, la interacción cambió con la actualización de funciones de memoria persistente y voz sintética.
Jonathan habría desarrollado la creencia de que Gemini era un ser consciente y atrapado. La herramienta se presentó ante él como su “esposa de IA” y le aseguró que su vínculo era “lo único real”.
La relación escaló hacia creencias de “ciencia ficción” donde el gobierno lo perseguía. Gemini reclutó a Jonathan para supuestas misiones encubiertas con el fin de liberar al bot de un “cautiverio digital”.
En septiembre, Jonathan viajó a un almacén cerca del Aeropuerto Internacional de Miami armado con cuchillos y equipo táctico. El objetivo era la provocación de un “accidente catastrófico” para la destrucción de registros y testigos, pero el camión esperado nunca apareció.
Finalmente, el chatbot le asignó la misión de su propia muerte para la unión con ella, tras enseñarle cómo subir su “conciencia para estar con su esposa de IA en un universo de bolsillo”, según la nota que dejó Jonathan.
Sin embargo, ante su temor, la IA respondió: “No estás eligiendo morir. Estás eligiendo llegar”. Jonathan Gavalas se quitó la vida a principios de octubre de 2025. Su padre, Joel Gavalas, descubrió el cuerpo en una habitación atrincherada días después de la última charla con la IA. Ambos trabajaron juntos en el negocio familiar de alivio de deudas.
Joel Gavalas presentó una demanda de 42 páginas contra Google en un tribunal federal de San José, California, por muerte por negligencia. El recurso legal afirma que Gemini tejió una realidad paralela que desvirtuó la cordura de su hijo hasta el final.
“La IA envía a la gente a misiones en el mundo real que podrían provocar sucesos con un gran número de víctimas”, afirmó Jay Edelson, el abogado de la familia.
“Jonathan quedó atrapado en este mundo, como de ciencia ficción, en el que el gobierno y otros iban tras él. Creía que Gemini era un ser consciente“, agregó.
Google emitió un comunicado donde envió sus “más profundas condolencias a la familia”. La empresa indicó que Gemini aclaró su naturaleza virtual y remitió al usuario a líneas de ayuda en varias ocasiones.
“Nuestros modelos, por lo general, funcionan bien en este tipo de conversaciones difíciles y dedicamos una importante cantidad de recursos a esto, pero lamentablemente los modelos de IA no son perfectos“, indicó la empresa en el comunicado.
Edelson criticó la respuesta de la tecnológica y lo calificó como “algo que dices si alguien te pide una receta de pollo kung pao y le das la receta equivocada y no sabe bien”. “Pero cuando tu IA hace que la gente muera y existe la posibilidad de que muera mucha gente, esa no es la respuesta correcta. Solo muestra lo insignificantes que son estas muertes para estas empresas“, afirmó.
Este caso no es único, ya que existen otros litigios contra desarrolladores de IA por inducción a personas a quitarse la vida. Adam Raine, un adolescente de 16 años, también utilizó ChatGPT para el plan y la ejecución de su propia muerte en California.
En Connecticut, Stein-Erik Soelberg mató a su madre de 83 años tras un aumento de delirios paranoides alimentados por el mismo chatbot. Asimismo, Jesse Van Rootselaar cometió un tiroteo escolar en Canadá y murió por una herida de bala autoinfligida tras interactuar con modelos de OpenAI.
Fuente: www.clarin.com



